Exercice 1 : Écrire une fonction qui permet d'insérer un élément dans un tableau en décalant tous ses successeurs vers la droite. Dans un premier temps, par souci de simplification, on fait l'hypothèse que le tableau est assez grand et que les cases de droite contiennent des 0.


In [1]:
# Exemple = [2, 3, 4, 6, 7, 0, 0, 0, 0]

def decalageADroite(tab, i, derniereCase):
    
    for a in range (derniereCase,i-1,-1):
        print(a)
        tab[a+1]=tab[a]
        
        
    return tab

# Je suppose que je veux insérer "5" dans la case 3, et que je sais que mon tableau se finit dans la case 4
print(decalageADroite(exemple, 3, 4))
print(exemple)


---------------------------------------------------------------------------
NameError                                 Traceback (most recent call last)
<ipython-input-1-ef792d413703> in <module>()
     11 
     12 # Je suppose que je veux insérer "5" dans la case 3, et que je sais que mon tableau se finit dans la case 4
---> 13 print(decalageADroite(exemple, 3, 4))
     14 print(exemple)

NameError: name 'exemple' is not defined

In [ ]:
# Pour ceux qui voudraient utiliser des vrais tableaux en Python 
from numpy import array, empty

#Création d'un tableau à partir d'une liste de valeur :
a = array([2,4,6,0,2,8])

#Création d'un tableau non initialisé :
a = empty(10, float)  # taille du tableau, type d'éléments

In [ ]:
%load_ext doctestmagic

Exercice 2 : proposez une solution itérative et une solution récursive au problème du tri par sélection du minimum.


In [ ]:
#Solution itérative
def triSelection (tab):
    '''
    entrée / sortie :tab est un tableau d'entier
    pré-cond: tab non vide
    post-cond tab est trié dans l'ordre croissant
    '''
    b=0
    min=tab[0]
    for i in range (len(tab)):
        for j in range (b,len(tab)):
            if (tab[j]<min):
                min=tab[j]
                indice=j
        c=tab[b]
        tab[b]=tab[indice]
        tab[indice]=c
        b=b+1
        min=c
    return tab
print(triSelection([5,2,3,4]))

In [ ]:
%doctest triSelection

In [ ]:
def triSelectionR (tab,i):
    '''
    entrée / sortie :tab est un tableau d'entier
    pré-cond: tab non vide
    post-cond tab est trié dans l'ordre croissant
    '''
    imin=i
    if i!=len(tab)-1:
        for j in range(i,len(tab)):
            if tab[j]<tab[imin]:
                imin=j
        s=tab[i]
        tab[i]=tab[imin]
        tab[imin]=s
        return triSelectionR(tab,i+1)
    else:
        return tab
    
print(triSelectionR([3,4,2,6,1],0))

In [ ]:
#Quel est ce tri ? 
def tri(tab):
    '''
    :entree/sortie tab: un tableau de valeurs ordonnables
    :pre-cond: aucune
    :post-cond: le tableau est modifié et trié par ordre croissant
    >>> tri([1,5,3,2,4])
    [1, 2, 3, 4, 5]
    >>> tri(["pomme", "poire", "banane"])
    ['banane', 'poire', 'pomme']
    '''
    for i in range (len(tab)-1):
        for j in range (i+1, len(tab)):
            if tab[j]<tab[i]:
                a=tab[j]
                tab[j]=tab[i]
                tab[i]=a
    return tab

Rappels sur la trace d'exécution d'un algorithme et la complexité

(merci à Pierre-Antoine Champin pour cette section)

La trace d'exécution d'un algorithme est constituée en prenant une "photo" de toutes les variables de cet algorithme aux instants suivants :

  • au début
  • à chaque while
  • à la fin

La trace est un "compte-rendu" de l'exécution de l'algorithme.

Donnez la trace d'exécution de l'algorithme suivant pour les valeurs suivantes de n : 91, 100, 500.


In [ ]:
"""
:entrée n: entier
:pré-cond n ≥ 0
:sortie r: entier
:post-cond: r est la partie entière de la racine de n
"""
## exemple d'entrées
n = 91
##


r = 0
while r*r <= n:
    r = r+1
r = r-1

## pour voir la sortie
print(r)
##

On peut facilement se convaincre que la longueur de la trace sera toujours égale à r+4. En effet :

  • la valeur finale de r correspond au nombre de fois où on est rentré dans la boucle, moins 1 (à cause de la ligne 18).
  • La taille de la trace est ici égale

    • au nombre de fois où on est entré dans la boucle,
    • plus 1 pour le passage à la ligne 13 qui sort de la boucle,
    • plus 1 pour la photo de départ,
    • plus 1 pour la photo à la fin,

    soit (nombre de passages dans la boucle) + 3, soit r + 4.

Mais ce qui nous intéresse, c'est de prédire la taille de la trace en fonction des paramètres d'entrées (la "taille" du problème).

En l'occurence, puisque r est la partie entière de √n, on peut affirmer que la longueur de la trace est partie_entière(√n)+4, qu'on peut simplifier en disant qu'elle est proportionnelle à √n.

Complexité

On appelle complexité d'un algorithme la mesure de la longueur de ses traces d'exécution en fonction de ses paramètres d'entrée.

Ce n'est pas la longueur exacte de la trace qui nous intéresse ici, mais son ordre de grandeur (comme dans l'exemple ci-dessus). C'est pourquoi on utilise la notation 𝓞(...) qui sert justement à représenter les ordres de grandeur.

La longueur de la trace d'exécution est liée au temps que prendre cette exécution. Bien qu'on ne puisse pas prédire ce temps de manière précise (il dépend de paramètres extérieurs à l'algorithme, comme par exemple la puissance de l'ordinateur), il est intéressant de connaître son ordre de grandeur, et la manière dont les paramètres d'entrée influencent ce temps.

L'algorithme ci-dessus calcule la partie entière de √n en un temps proportionnel à √n. On dira qu'il a « un temps d'exécution en 𝓞(√n) ».

On peut faire mieux avec l'algorithme ci-dessous :


In [ ]:
## exemple d'entrées
n = 91
##

min = 0
max = n
while max-min > 1:
    moy = (max+min)//2
    if moy*moy <= n:
        min = moy
    else:
        max = moy
r = min

## pour voir la sortie
print(r)
##

L'algorithme ci-dessus applique une recherche dichotomique : on utilise le fait que

  • la racine de n est forcément comprise entre 0 et n, et que
  • les racines de deux nombres sont dans le même ordre que ces nombres.

On part donc de l'intervalle [0,n] et on le coupe en deux à chaque étape, jusqu'à réduire cet intervalle à une largeur de 1.

Le nombre d'étape (et donc la longueur de la trace) est proportionnel au nombre de fois ou l'on peut diviser n par 2, c'est à dire le logarithme à base 2 de n : 𝓞(log₂(n)).

On peut se convaincre, avec les courbe ci-dessous, que cet algorithme est bien plus efficace que le précédent pour de grandes valeurs de n.


In [ ]:
%pylab inline
xs = range(1,300)
plot(xs, sqrt(xs), "r-", label=" √n")
plot(xs, log2(xs), "g-", label="log2(n)")
legend(loc="lower right")

Calcul de la racine carrée

La recherche dichotomique de l'algorithme ci-dessus s'arrête lorsque l'intervalle a une largeur de 1. Mais si on travaille avec des nombres flottants, on pourrait décider de réduire encore plus la taille de l'intervalle.

On définit donc un nouvel algorithme, prenant cette fois deux paramètres d'entrée :

  • x, le nombre flottant dont on veut calculer la racine carrée,
  • erreur, l'erreur maximale que l'on accepte d'avoir sur le résultat

In [ ]:
"""
:entrée x: flottant
:entrée erreur: flottant
:pré-cond x ≥ 0
:sortie r: entier
:post-cond: r est la racine de 'x' à 'erreur' près
"""
## exemple d'entrées
x=500
precision=0.001
##

# AUTRE SOLUTION #
min = 0
max = x
while max-min > erreur:
    moy = (max+min)/2
    if moy*moy <= x:
        min = moy
    else:
        max = moy
r = min

## pour voir la sortie
print(r)
# et la vérifier 
print(r*r)
##

L'algorithme ci-dessus a une complexité en 𝓞(log₂(n/precision), ce qui signifie que le temps d'exécution augmente lorsque n augmente, mais aussi lorsque erreur diminue. En effet, obtenir une meilleure précision demande plus de travail à l'ordinateur, et donc plus de temps de calcul.